Световни новини без цензура!
Най-големите технологични компании за изкуствен интелект в света се сблъскват с Обединеното кралство за тестове за безопасност
Снимка: ft.com
Financial Times | 2024-02-07 | 07:15:04

Най-големите технологични компании за изкуствен интелект в света се сблъскват с Обединеното кралство за тестове за безопасност

Най-големите компании за изкуствен интелект в света настояват правителството на Обединеното кралство да ускори своите тестове за безопасност за системите за изкуствен интелект в сблъсък относно желанието на Великобритания да поеме водеща роля в регулиране на бързо развиващата се технология.

OpenAI, Google DeepMind, Microsoft и Meta са сред технологичните групи, които подписаха доброволни ангажименти през ноември да отворят своите най-нови генеративни AI модели за преглед от новия британски институт за безопасност на AI. По това време компаниите обещаха, че ще коригират моделите си, ако институтът открие пропуски в технологията.

Според множество хора, запознати с процеса, компаниите за изкуствен интелект търсят яснота относно тестовете, които AISI провежда , колко време ще им отнеме и какъв е процесът на обратна връзка, ако бъдат открити някакви рискове.

Хора, близки до технологичните компании, казаха, че не са законово задължени да променят или забавят пускането на своите продукти въз основа на резултатите от AISI's тестове за безопасност.

Въпреки това, публикация в LinkedIn от Иън Хогарт, председател на AISI, в понеделник каза: „Компаниите се съгласиха, че правителствата трябва да тестват своите модели, преди да бъдат пуснати: Институтът за безопасност на ИИ прилага това на практика .”

„Тестването на модели вече е в ход в тясно сътрудничество с разработчиците,” каза правителството на Обединеното кралство пред Financial Times. „Ние приветстваме непрекъснатия достъп до най-способните AI модели за тестване преди внедряване – едно от ключовите споразумения, които компаниите подписаха на срещата на върха за безопасността на AI“, която се проведе през ноември в Bletchley Park.

“ Ще споделим констатациите с разработчиците, ако е уместно. Въпреки това, когато се открият рискове, бихме очаквали те да предприемат съответните действия преди стартирането.“

Спорът с технологичните компании разкрива ограниченията на разчитането на доброволни споразумения за определяне на параметрите на бързо развиващите се технологии развитие. Във вторник правителството очерта необходимостта от „бъдещи задължителни изисквания“ за водещите разработчици на AI, за да се гарантира, че те носят отговорност за поддържането на системите безопасни.

Подкрепяният от правителството институт за безопасност на AI е ключът към амбицията на министър-председателя Риши Сунак за Обединеното кралство да има централна роля в справянето с екзистенциалните рискове, произтичащи от възхода на ИИ, като използването на технологията при увреждащи кибератаки или проектиране на биологични оръжия.

Според хора с преки познания по въпроса, AISI започна да тества съществуващи AI модели и има достъп до все още неиздавани модели, включително Gemini Ultra на Google.

Тестването се фокусира върху рисковете, свързани със злоупотребата с AI, включително киберсигурността, като се опира на експертен опит от Национален център за киберсигурност в щаба на правителствените комуникации (GCHQ), каза един човек.

Наскоро публикувани правителствени договори показват, че AISI е похарчил £1 милион за осигуряване на възможности за тестване за „джейлбрейк“, което означава формулирането на подкани за коаксиалност AI chatbots за заобикаляне на техните предпазни огради и „фишинг“, когато лица и организации са насочени, обикновено чрез имейл, за кражба на чувствителна информация или разпространение на зловреден софтуер.

Друг договор е свързан с разработването на „обратен инженеринг“ автоматизация“, процесът, чрез който изходният код се разгражда по автоматизиран начин, за да се идентифицира неговата функционалност, структура и дизайн.

„Институтът за безопасност на ИИ на Обединеното кралство има достъп до някои от нашите най-способни модели за изследване и целите на безопасността, за да изградим експертни познания и способности в дългосрочен план“, каза Google DeepMind.

„Ние ценим сътрудничеството си с института и работим активно заедно за изграждане на по-стабилни оценки за AI модели, както и да търсим консенсус относно най-добрите практики с напредването на сектора.”

OpenAI и Meta отказаха коментар.

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!